تحولات لبنان و فلسطین

هوش مصنوعی برخلاف تمام مزایایی که دارد باعث ایجاد محیط‌های خطرناک و آسیب‎ زا است. این موضوع باعث بی اعتمادی عده‎ای زیادی از مردم جهان به این فناوری شده است.

افزایش بی اعتمادی به هوش مصنوعی / افزایش ناامنی شغلی با وجود هوش مصنوعی

پایگاه خبری آکسیوس در گزارشی با استناد به افکار سنجی جدید موسسه ادلمان ، اظهار کرده که اعتماد عمومی جهان ، نسبت به فناوری هوش مصنوعی کمتر شده است. مجموعه‌های تجاری- فناوری همچون "سیلیکون ولی" اصرار دارند به افکار عمومی دنیا این موضوع را تحمیل کنند ، که هوش مصنوعی قابل اطمینان است ؛ ولی این بی اعتمادی عمومی پس از 18 ماه از انقلاب هوش مصنوعی که با انتشار نسخه تعاملی "اوپن‌آی" شروع شد اتفاق افتاده است.

براساس نظر سنجی موسسه ادلمان ، اعتماد به هوش مصنوعی در سطح عمومی جهان ، از 61 درصد (سال 2019 ) ، به 53 درصد ( 2024 ) کاهش یافته است. کمتر از 40 درصد از مردم در ایالات متحده آمریکا به فناوری هوش مصنوعی اعتماد دارند ، و این در حالی است که در سال گذشته میلادی این میزان 50 در صد بوده است. یکی از علت‌های این موضوع عدم امنیت شغلی می‌باشد که باعث بیکاری عده‌ای از مشاغل خدماتی و صنعتی شده و یا اینکه در آستانه بیکاری قرار دارند. به همین جهت کاهش اعتماد عمومی از سال 2018-2019 تا به امروز چیز عجیبی نمی‌باشد. این موضوعات باعث شده نیمی از 76 درصد مردمی که با فناوری ارتباطی فعالیت دارند ، به هوش مصنوعی بی اعتماد بشوند. چرا که منتظر تایید دانشمندان برای اظهار ایمنی هوش مصنوعی هستند.

اهمیت این موضوع تا آنجا است که ، تا قبل از سال 2022 هوش مصنوعی بیشتر شبیه یک فناوری نوظهور جذاب بصری بود ، ولی با فعال شدن بستر تعامل هوش مصنوعی در قالب چت کردن با افراد ، نگرانی‌ها درباره مسائل مختلف از جمله حریم شخصی و ناامنی شغلی در افکار عمومی به وجود آمده است. عده‌ای از پژوهشگران اجتماعی معتقدند ، قانون‎مند کردن هوش مصنوعی باید در اولویت دولت‎ها و افراد باشد. به طوری که شفاف بتوان روی آن نظارت کرد و هدایت اجتماع جامعه را در دست داشت. این موضوع نه تنها صنعت را در خدمت مردم قرار می‎دهد که ، باعث افزایش اعتماد عمومی به دولت‎‌ها خواهد شد. چرا که این دولت‎ها هستند که می‎توانند بر هوش مصنوعی نظارت کامل انجام دهند.

تاثیرات هوش مصنوعی بر شناخت اجتماعی

فناوری هوش مصنوعی شناخت افراد را دچار تحول نسبت به جهان پیرامونی خودش می‎کند. این موضوع تقریبا در تمامی صنایع قابل احساس است اما ، نمی‌‎‎توان گفت این تغییرات حتما مثبت هستند. چرا که هر صنعتی برخلاف مزایای خوبی که دارد و فرصت‌های پیشرفت و گسترش شغلی و درآمدی را باعث می‌شود ، نمی‎تواند ارامش حاکم بر فضای شهری که مردمان یک جامعه به آن احتیاج مبرم و مزمن دارند را بدهد. حتی می‌توان گفت که یک تهدید برای زیست اجتماعی و سایر زیست بوم‌های طبیعی محسوب می‎شود. به طور مثال وجود صنعت هوانوردی با تمام زیبایی‎ها و کارآمدی‎هایی که دارد باعث ایجاد آلودگی‎های صوتی و یا آسیب به دست‎ها و جنگل‎های محیط شهرها شده است.

هوش مصنوعی نیز از این قاعده مستثناء نیست. از این جهت نمی‎توان وجود ارزش‎های اخلاقی را برای این فناوری در نظر گرفت ؛ به همین دلیل نسبت به چیزهای جدیدی که نسبت به این صنعت تجاری اعلام می‎شود را ، جانب احتیاط نگه داشت. یکی از مهم ترین دلایل عدم درک درست از فضایی ایجاد شده هوش مصنوعی است ، که اطلاعات زیادی را می‏تواند در زمان کوتاه (چند ثانیه‎ای یا چند دقیقه‎ای) به کاربر رایانه‎ای بدهد. از نگاه دانشمندان علوم پایه-زیستی جهان تعامل هوش مصنوعی ، جهانی است که هنوز نقاط تاریک زیادی دارد و بی اعتمادی به درستی آن ایمنی زیادی را برای مخاطبان و کاربرانش می‎دهد. ضمن اینکه عده‎ای از محققان ادعا کرده‎اند ، هوش مصنوعی می‌تواند بر مهندسی انتخابات یک کشور تاحد زیادی موثر باشد که این خود از خطرات قابل توجه هوش مصنوعی است.

به اعتقاد پژوهشگران چند موضوع در رابطه با تعامل فردی نسبت به هوش مصنوعی را ، باید مورد توجه قرار داد.

اول ؛ هوش مصنوعی به راحتی میتواند اشتباه کند

چت بات‌های هوش مصنوعی برای کارهایی مثل نوشتن و تصمیم گیری‌های مهم احتیاج به داده‎هایی دارند که شاید تشخیص آن برای این فناوری مشکل باشد. به همین جهت امکان اشتباه کردن آن به راحت‎ترین شکل وجو دارد. مثلا پاسخ اشتباه برای سوال در مورد یک کتاب از نمونه‎های آن می‌باشد. در حالی که می‎توان پاسخ خود را با جستجوی ساده‎ای در وبسایتی به دست بیاوریم. درست است که هوش مصنوعی برای هر سوالی پاسخی دارد ولی اطلاعات آنها محدود می‎باشد و تنها به داده‎ای از پیش تعیین شده خود متکی می‎باشند و می‏‎تواند از اشتباهاتش درس بگیرد. هوش مصنوعی حتی نمی‎تواند موضوع اختلافی بین یک وسیله ارتباطی یا دیجیتالی را مقایسه کند. این ناتوانی فناوری هوش مصنوعی در قضاوت نسبت به احوالات شخصی بین دونفر نیز صدق می‎کند. چرا که از قاعده‎ی های کلی و جزئی زندگی افراد اطلاعی ندارد.

دوم ؛ میتوان از این فناوری برای تغییر اطلاعات استفاده کرد

از آنجایی که هوش مصنوعی توانایی بریده کردن یا چکیده کردن اطلاعات یک کتاب را دارد ، می‎تواند اطلاعات مشابه را با یکدیگر اشتباه کند و آنها را تغییر دهد. چرا که درک درستی از درخواست شما ندارد و امکان تطابق غلط یک متن را مطابق با برنامه از پیش تعیین شده خود را دارد. نکته‎ای دیگر برای این موضوع ، درک محدود هوش مصنوعی است. درکی که برای ارائه راه‏ حل‏ها و پیشنهادات درست ، احتیاج به نظرات کامل کاربر را دارد ولی این فناوری حتی با درک کامل موقعیت فردی باز هم نمی‎تواند پاسخ مناسبی به کاربران بدهد. چرا که اساسا درکی از روابط عاطفی و احساسی ندارد.

سوم ؛ از بین رفتن خلاقیت با استفاده از هوش مصنوعی

امروزه در بسیاری مشاغل سعی بر استفاده از هوش مصنوعی می‌شود. به طور مثال خبرنگاران ، طراحان هنری از هوش مصنوعی برای افزایش بهره‎وری کارایی خود استفاده می‎کنند. این موضوع در کوتاه مدت شاید اثرات مثبتی را داشته باشد اما در میان مدت و بلند مدت اثرات منفی قابل توجهی دارد ؛ از جمله آنها از بین رفتن خلاقیت فردی برای شغل مورد نظر خود می‎باشد.

چهارم ؛ خطر سوء استفاده از هوش مصنوعی برای کاربران

هوش مصنوعی همانند سایر فناوری‎ها آسیب‎پذیر است و خطر سوء استفاده از آن همواره وجود دارد. به طور مثال می‎توان برای آزار دادن افراد ، ارعاب و تحقیرکردن استفاده کرد. این موضوع حتی در نمونه‎های پیشرفته‎تر نیز دیده شده است. مثل تولید و ایجاد تصاویر با استفاده از "دیپ فیک و داس" که نشان از خطرات احتمالی این فناوری دارد. دسترسی به فناوری تشخیص تصویر به تروریست‌ها در هر کشوری این توانایی را می‎دهد که از آن به عنوان ابزاری برای عملیات تروریستی اقدام کند.

لازم به ذکر است ، با توجه به مولفه‌های ذکر شده اعتماد کامل و مطلق به هوش مصنوعی خطرات زیادی را به دنبال دارد. بنابراین می‌توان نتیجه گرفت که این فناوری صرفا یک ابزار است و جایگزینی برای مهارت‎های فردی و اجتماعی نیست. همچنین نمی‎توان به آن برای کارهای روزانه متکی بود چرا در بلند مدت آسیب زا می‎باشد.

حمید اسدی – خبرنگار تحریریه جوان قدس

نظر شما

شما در حال پاسخ به نظر «» هستید.